떡밥위키
최근 변경
최근 토론
특수 기능
파일 올리기
작성이 필요한 문서
고립된 문서
고립된 분류
분류가 되지 않은 문서
편집된 지 오래된 문서
내용이 짧은 문서
내용이 긴 문서
차단 내역
RandomPage
라이선스
IP 사용자
3.141.107.132
설정
다크 모드로 전환
로그인
접속자 폭증으로 서버 상태가 원활하지 않습니다 |
소유권 이전과 관련한 공지
대규모 언어 모델
(r2 문단 편집)
닫기
RAW 편집
미리보기
== 한계점 및 과제 == * '''환각 현상(Hallucination)''': 사실이 아니거나 맥락에 맞지 않는 정보를 그럴듯하게 생성하는 문제. LLM은 확률적으로 가장 그럴듯한 다음 단어를 예측하기 때문에, 학습 데이터에 없거나 잘못된 정보도 마치 사실인 것처럼 생성할 수 있다. 이는 LLM의 신뢰성을 저해하는 주요 원인이다. * '''편향성(Bias)''': 학습 데이터에 내재된 편견(인종, 성별, 특정 집단에 대한)을 학습하여 결과물에 반영할 수 있다. 이는 사회적 차별을 재생산하거나 악화시킬 수 있다. * '''높은 비용''': 모델 학습 및 추론에 막대한 양의 컴퓨팅 자원(GPU 등)과 전력이 소모되어 비용 부담이 크다. 이는 일부 거대 기업에 기술이 집중되는 결과를 초래할 수 있다. * '''윤리적 문제''': * 가짜 뉴스 생성 및 악의적 여론 조작 * 딥페이크와 결합한 사칭 및 명예훼손 * 저작권 침해 (학습 데이터 및 생성물의 저작권 문제) * 일자리 대체 및 자동화로 인한 사회경제적 변화 * 개인정보 침해 및 오용 * '''데이터 의존성''': 최신 정보나 특정 전문 분야 지식이 부족할 수 있으며(knowledge cutoff), 학습 데이터의 품질과 다양성에 성능이 크게 좌우된다. * '''설명 가능성 부족(Black Box 문제)''': LLM이 특정 답변을 생성한 이유나 과정을 명확히 설명하기 어려워(블랙박스 문제) 신뢰성 확보 및 오류 수정에 어려움이 있다. * '''보안 취약점''': 프롬프트 인젝션(Prompt Injection), 데이터 유출 등 새로운 형태의 보안 위협에 노출될 수 있다.
요약
문서 편집을
저장
하면 당신은 기여한 내용을
CC BY-NC-SA 2.0 KR
으로 배포하고 기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다. 이
동의는 철회할 수 없습니다.
비로그인 상태로 편집합니다. 로그인하지 않은 상태로 문서 편집을 저장하면, 편집 역사에 본인이 사용하는 IP(3.141.107.132) 주소 전체가 영구히 기록됩니다.
저장
사용자
3.141.107.132
IP 사용자
로그인
회원가입
최근 변경
[불러오는 중...]